PHYSIQUE - Les fondements et les méthodes


PHYSIQUE - Les fondements et les méthodes
PHYSIQUE - Les fondements et les méthodes

Si l’on en croit l’étymologie, la physique (du grec physikos ) constitue la science de la Nature. C’est essentiellement l’acception que l’on adoptera dans cet article, ce qui amènera à englober dans la catégorie générale de la physique certaines disciplines qui en sont parfois distinguées pour des raisons historiques ou techniques, comme par exemple la chimie, l’astronomie et la mécanique. La distinction qui est faite habituellement entre sciences physiques et physique proprement dite ne correspond plus à l’état de nos connaissances et ne recouvre qu’une tradition académique. La principale réserve qu’il convient de formuler concerne les sciences de la vie: savoir si les caractères de la matière vivante et des êtres vivants et organisés sont réductibles à la physique et à ses lois fondamentales constitue encore l’une des questions les plus importantes de la science. Les connaissances actuelles à ce sujet, bien qu’en progrès considérable en ce qui concerne la matière vivante, soulèvent cependant encore beaucoup trop d’interrogations pour qu’on les retienne ici.

1. Une science exacte

La physique est l’archétype de la science exacte. Il faut voir là une hypothèse fondamentale, qui peut être énoncée de la manière suivante: les phénomènes naturels obéissent à des lois fixes. Plus précisément, il apparaît que la réalité peut être décrite, et ses processus prédits à l’aide de représentations mathématiques . De telles représentations sont constituées par un objet mathématique plus ou moins complexe qui est mis en correspondance avec la réalité. Ainsi, pour bâtir la dynamique, Newton fait correspondre le mouvement d’un mobile à une représentation analytique de sa position en fonction du temps x (t ), et il propose des hypothèses simples sur cette fonction (continuité, dérivabilité). De même, il postule qu’il existe une cause à l’origine du mouvement, représentée par un vecteur mathématique づ et appelée force. Au système réel dynamique est ainsi associé un objet mathématique relativement complexe, constitué par l’ensemble de x (t ) et de づ. À l’intérieur de la représentation mathématique adéquate, les lois de la physique prennent l’aspect de relations ou d’équations qui gouvernent l’objet mathématique: ainsi, en dynamique, on posera づ = m ゔ, où l’accélération ゔ est obtenue à partir de x (t ) par des dérivations. C’est l’existence de telles relations qui donne son importance à la représentation mathématique. De telles représentations font partie de la logique propre du langage, même si elles n’atteignent pas le stade de la formulation mathématique. C’est précisément cette dernière étape qui fait de la physique une science exacte, car elle est capable de prédictions et de vérifications quantitatives.

On peut se demander ce qui justifie une telle hypothèse. Il n’est pas du tout évident, a priori, qu’un domaine de la connaissance soit représentable mathématiquement d’une manière féconde. Les raisons de croire en la validité de cette adéquation entre la réalité physique et la représentation mathématique sont les suivantes:

– elle peut être vérifiée avec une précision égale à celle de nos meilleurs instruments, c’est-à-dire, fréquemment, avec des incertitudes relatives inférieures au millionième;

– elle a été confirmée dans des millions d’expériences qui couvrent pratiquement toutes les propriétés de la matière inerte (cf. infra , pour une liste succincte de ces domaines), et aucune expérience ne semble, jusqu’à présent, l’avoir contredite;

– les conséquences tirées de l’analyse mathématique de la représentation ont très souvent conduit à la prédiction d’effets inconnus.

En outre, au cours de l’histoire de la physique, ces représentations ont toujours tendu à s’approfondir. On entend par là, faute d’une meilleure expression, que des aspects nouveaux apparaissent, signes de l’évolution de nos connaissances. Ainsi, un grand nombre de lois couvrant un domaine partiel ont été déduites des lois d’un autre domaine, ce qui a révélé souvent une identité de nature entre les deux: c’est le cas des règles de l’optique qui ont été dérivées des équations de Maxwell, lesquelles gouvernent l’électrodynamique, ce qui a révélé que la lumière était en fait due à un phénomène de vibration du champ électromagnétique. De même, beaucoup de lois empiriques ont pu être reliées à un petit nombre de lois dites fondamentales, et souvent démontrées à partir d’elles. Enfin, à diverses reprises, l’édifice des connaissances a été remis en question (avènement de la relativité, de la mécanique quantique) et, à chaque fois, la représentation mathématique nouvelle ne rejetait pas complètement la précédente, mais elle l’admettait comme une limite bien définie au sens mathématique, valable dans des conditions bien précises. Ainsi la mécanique newtonienne est la limite de celle de la relativité restreinte lorsque les vitesses mises en jeu sont «petites» par rapport à la vitesse de la lumière.

2. La méthode en physique

Dans la présentation de la méthode par laquelle les lois de la physique sont généralement découvertes et établies, on laissera de côté les aspects méthodologiques qui permettent de la codifier ou de l’appliquer. Les progrès du XXe siècle, qui ont souvent abouti à construire des théories très éloignées de l’intuition commune, ont permis de clarifier les processus de la découverte et de la vérification et, en particulier, de rejeter la notion d’induction sur laquelle on avait cru pouvoir se fonder au XIXe siècle, époque où les phénomènes étudiés étaient plus immédiatement représentables.

L’établissement d’une loi passe en général par quatre étapes:

– la réunion de données empiriques, le plus souvent quantitatives, grâce à l’expérience; elles sont parfois reliées par des règles empiriques qui expriment certaines relations entre les données;

– l’invention d’un schéma, c’est-à-dire, le plus souvent, d’un objet mathématique qui implique entre les données les relations qui sont observées par l’expérience; à ce stade, il s’agit de la formation d’une hypothèse ;

– l’analyse détaillée du schéma mathématique conduite de manière à prédire, dans la mesure du possible, de nouvelles relations; en d’autres termes, on détermine les prédictions contenues dans l’hypothèse;

– la vérification par l’expérience de ces prédictions; elle est considérée comme d’autant plus satisfaisante que celles-ci sont en plus grand nombre, davantage indépendantes les unes des autres et plus précises.

Ces diverses étapes sont plus ou moins marquées selon le cas, et certaines peuvent parfois être ramenées à l’évidence ou à la banalité, mais l’élaboration des théories complexes ou nouvelles, comme la mécanique quantique ou la relativité restreinte, est clairement passée par tous ces stades. Le temps et l’effort nécessaires à la réalisation de ce travail peuvent varier notablement selon les questions considérées.

Il est possible, à ce sujet, de faire un certain nombre de remarques. Il semblerait que la méthode indiquée ici soit, dans ses grands traits et même dans des cas élémentaires, très proche de l’acte psychologique qui consiste à «comprendre». Dans la vie pratique cependant, les schémas mis en jeu sont rarement mathématiques, ils sont plutôt logiques ou consistent en une représentation spatiale.

Dans le même ordre d’idées, le rôle des mathématiques en physique est celui d’une représentation et, très souvent, ces dernières apparaissent donc comme une forme privilégiée du langage.

On désigne parfois le schéma mathématique sous le nom de modèle . Cette expression a l’avantage de souligner son rôle de représentation, mais elle suggère une vulnérabilité qu’il n’est pas toujours utile de faire apparaître. Il semble préférable de réserver ce terme de modèle à un schéma mathématique adéquat qui représente approximativement un nombre limité de faits, et de ne pas l’appliquer aux lois fondamentales. Ainsi, l’électrodynamique quantique recèle tous les aspects connus de la lumière, mais, dans certains cas, il est commode de représenter les effets que l’on discute par le modèle des particules (photons) ou par celui des ondes (champ électromagnétique). Dans une branche de la physique non encore totalement éclaircie, comme celle des particules élémentaires, un modèle est une organisation de certaines données partielles.

Malgré toutes les vérifications, il ne peut y avoir de certitude absolue sur la validité des lois, bien que le nombre énorme, la précision et la diversité des conséquences de la mécanique quantique, par exemple, ne puissent laisser au doute qu’une place minime (ce qui ne signifie pas que d’autres formulations, d’autres interprétations ou bien un nouvel approfondissement soient inconcevables). Il n’existe pas, semble-t-il, d’analyse satisfaisante de ce que peut être le degré de validité (de vérité?) d’une loi, compte tenu des vérifications faites.

Contrairement aux trois autres, la deuxième étape, celle de l’invention de l’hypothèse, n’est ni rationnelle ni codifiable. Étymologiquement, elle constitue l’acte de génie, c’est-à-dire de génération.

Les seules hypothèses qui apparaissent dans les traités de physique ou qui sortent du cercle des spécialistes sont celles qui ont en général été vérifiées. On connaît des exemples d’hypothèses, parfois extrêmement brillantes, qui ont réussi à «expliquer» un grand nombre de données indépendantes, de manière quantitative, et qui ont dû être rejetées au stade de la vérification. Cela comporte deux leçons: tout d’abord qu’il est absolument nécessaire de vérifier une hypothèse par l’examen de conséquences indépendantes des données initiales; ensuite que la capacité d’imagination de l’homme est très grande. Pour employer un langage actuellement répandu, l’homme est aisément disposé à découvrir des structures dans les faits, et cela de plusieurs manières. La pratique de la physique apprend que, même lorsque les données quantitatives imposent à l’imagination des contraintes particulièrement fortes, il est possible de construire des structures qui sont à première vue satisfaisantes, bien qu’en réalité incorrectes.

3. De l’atomisme de Démocrite à la physique des particules

Un bref historique de l’évolution des idées en physique permettra de rencontrer et de poser les principaux concepts, mieux peut-être que ne le ferait une discussion systématique des connaissances actuelles. Bien entendu, les considérations qui suivent ne visent aucunement à être complètes et l’on pourra en poursuivre l’étude en se référant à différents articles de l’Encyclopædia . On trouvera dans les pages suivantes un historique détaillé des grandes découvertes, allant de Copernic à nos jours.

Époque présocratique

Les premières considérations relatives à l’idée de Nature apparaissent chez les penseurs grecs de l’époque présocratique. Parmi les idées qui étaient destinées à connaître des développements considérables, il convient de citer les suivantes:

– L’hypothèse atomique , attribuée à Leucippe et développée par Démocrite, suppose que la matière est constituée d’objets indissociables et extrêmement petits, les atomes. L’une des propriétés fondamentales de la matière ainsi conçue est l’existence du vide, dans lequel les atomes se meuvent. Cette hypothèse fut, pendant une longue partie de l’histoire de la physique, opposée à celle d’une matière pleine, clairement affirmée par Parménide et l’école éléate. Dans la lignée des partisans marquants de l’atomisme, qui aidèrent à préciser cette théorie, on relève les noms de Lucrèce (De natura rerum ) au Ier siècle avant J.-C., de Rudjer Josip Boškovi が au XVIe siècle, de Descartes et de Bernoulli au XVIIe siècle.

– L’association intime de la physique et des mathématiques, qui apparaît chez Pythagore, est fondée sur les rapports simples qui existent entre les longueurs de cordes qui produisent des sons musicaux harmoniques.

– On cherche à réduire les constituants de la matière à un petit nombre d’éléments indépendants qui sont, ensemble ou séparément selon les doctrines, la terre, l’eau, l’air, le feu et un hypothétique éther plus subtil que l’air [cf. ÉTHER].

Époque classique grecque

Les principaux développements de la physique à l’époque classique grecque et à l’époque alexandrine ont trait à la mécanique (il s’agit en particulier de la théorie des leviers et de l’hydrostatique, toutes les deux marquées par Archimède), mais l’expérimentation et l’art de l’ingénieur sont mésestimés. L’astronomie seule donne lieu à des mesures assez précises. L’hypothèse héliocentrique, selon laquelle la Terre tourne autour du Soleil, est soutenue par Aristarque de Samos et Héraclide du Pont, mais elle ne parvient pas à s’imposer.

En ce qui concerne les relations avec les mathématiques, deux points méritent d’être mentionnés:

– Chez Aristote, l’espace n’est pas abstraitement distingué de la réalité physique dont les propriétés sont, en principe, déterminées par l’expérience et par la mesure. Le postulat d’Euclide, relatif à l’existence des parallèles, clef de la géométrie euclidienne , est pour Aristote une propriété physique. Par la suite, sous l’influence de Platon, l’espace et sa géométrie seront considérés pendant longtemps comme le déploiement de l’intelligible, auquel ils sont référés.

– Le temps est clairement conçu comme continu, mais la compréhension du mouvement présente des difficultés. On n’a pas une notion précise de la vitesse en général et aucune de l’accélération. Cette difficulté, liée à l’absence du calcul différentiel et de la notion de limite, est la source du paradoxe de Zénon d’Élée (Achille ne rattrapera jamais une tortue car, lorsque Achille aura parcouru la distance qui l’en sépare actuellement, la tortue aura avancé d’une nouvelle distance plus petite, et ainsi de suite jusqu’à l’infini). Ce paradoxe a une grande importance dans l’histoire de la cinématique.

Moyen Âge et Renaissance

Le Moyen Âge est une période riche en spéculations et en analyses ainsi qu’en inventions techniques; il ne donne cependant lieu à aucun progrès décisif. À la Renaissance, c’est l’astronomie qui, la première, prend un vigoureux essor. L’hypothèse héliocentrique, remise au jour par Copernic, permet d’analyser les mouvements des planètes, et Tycho Brahe, grâce à l’utilisation d’instruments de mesure, fournit à ce sujet des données précises. La découverte des lois empiriques par Kepler couronne ces travaux; ces lois indiquent que certains phénomènes obéissent à des règles simples, quantitatives et d’expression mathématique (cf. Johannes KEPLER).

C’est ensuite le tour de la dynamique , dont le développement s’étend de Galilée à Newton. Plutôt que d’entrer dans le détail du développement historique, parfois confus, on tentera d’apprécier globalement les progrès accomplis de la seconde moitié du XVIe siècle jusqu’au début du XVIIIe.

L’introduction de la géométrie analytique , due à Descartes, permet à la fois de représenter graphiquement le mouvement et de ramener son étude à celle des courbes géométriques. Grâce à l’invention du calcul différentiel par Newton et Leibniz, on peut définir de manière précise la vitesse et l’accélération: ainsi se trouve réglé le problème de la description du mouvement, ou cinématique. Il devient alors possible de traiter la dynamique, c’est-à-dire la détermination du mouvement, que l’on suppose dû à l’action de forces.

Le principe d’inertie de Galilée énonce que, en l’absence de forces, un objet ponctuel décrit une trajectoire rectiligne avec une vitesse uniforme (constante). Ce principe fondamental continuera de jouer un grand rôle par la suite. À présent, il suppose l’existence d’un ou de plusieurs systèmes de repérage privilégiés où l’on observe ce mouvement uniforme. Newton pose que ce système de référence est celui par rapport auquel les étoiles sont fixes; c’est ce qu’on appelle un système absolu. Il établit ensuite que les lois de la dynamique d’un point ou d’une particule (aisément étendues à des systèmes plus complexes) sont de la forme づ = m ゔ, où づ est la force, m la masse inertiale et ゔ l’accélération. Cette loi n’a d’utilité que si la force づ elle-même est simple. Newton en déduit alors qu’un corps céleste de masse M, tel que la Terre, exerce sur un autre corps de masse m , tel que la Lune, situé à la distance r , une force de valeur égale à GMm/r 2, où G est la constante de gravitation universelle. Il est remarquable que la force exercée par la Terre soit proportionnelle à la masse inertiale de la Lune: dans ce rôle que la masse m joue dans づ, elle porte le nom de masse gravifique (des expériences ont confirmé, à 10 size=111 près, l’égalité des masses inertiale et gravifique). Les lois de Newton permettent de déduire les lois de Kepler ainsi que celles relatives à beaucoup d’autres phénomènes mécaniques. Cela a conduit à poser la notion de loi fondamentale , d’où les règles empiriques de l’observation peuvent être dérivées par l’analyse mathématique.

XVIIIe et XIXe siècles

La fin du XVIIIe siècle et le début du XIXe sont marqués par l’essor de la chimie. La découverte essentielle est celle des éléments chimiques, en nombre défini, qui engendrent, en se combinant selon des proportions bien déterminées, tous les constituants de la matière. Les règles auxquelles obéissent ces combinaisons sont éclaircies par Lavoisier (conservation de la masse), Dalton et Gay-Lussac.

C’est également au XIXe siècle que l’on élucide les phénomènes électriques et magnétiques , sous l’impulsion principalement de Faraday et d’Ampère. Cette analyse conduit, entre autres, aux énoncés suivants:

– la matière peut porter des charges électriques de deux signes opposés, les charges de même signe se repoussant et celles de signes opposés s’attirant;

– les charges électriques sont soumises à deux types de forces, électriques et magnétiques, qu’on décrit par des champs, c’est-à-dire par la valeur de la force électrique exercée sur une charge unité;

– les champs électrique et magnétique sont liés l’un à l’autre par des lois simples, en particulier lorsqu’ils varient dans le temps.

Ces lois sont synthétisées par Maxwell, vers 1860, en un ensemble d’équations qui jouent, pour les phénomènes électromagnétiques, un rôle fondamental analogue à celui de la loi de Newton en mécanique. Une conséquence remarquable de ces équations est de prédire l’existence d’oscillations des champs électrique et magnétique qui se propagent sous forme d’ondes. Ce sont les ondes radioélectriques observées expérimentalement par Guglielmo Marconi et Heinrich Hertz et dont la vitesse est celle de la lumière visible. On explique ainsi que l’optique est un cas particulier des phénomènes électromagnétiques.

Ainsi apparaît pour la première fois l’idée d’une unité sous-jacente de phénomènes physiques aux manifestations apparemment très différentes.

À la fin du XIXe siècle, la structure atomique de la matière est confirmée et conduit à une nouvelle épistémologie de la physique.

L’existence des atomes est de plus en plus admise grâce aux progrès de la chimie. Elle permet en effet d’expliquer les phénomènes de valence et certaines propriétés des substances organiques, suggérant même la répartition géométrique des atomes dans les molécules.

Dans une série de travaux fondamentaux, Ludwig Boltzmann et Josiah Willard Gibbs développent la mécanique statistique , c’est-à-dire l’application du calcul des probabilités aux propriétés d’un système constitué d’un très grand nombre de constituants élémentaires. Ils obtiennent ainsi une dérivation des principes fondamentaux de la thermodynamique . La loi de la conservation de l’énergie (cf. Les fondements de la physique contemporaine ) se présente ainsi sous un jour nouveau. Au cours du XIXe siècle, elle s’était peu à peu imposée, mais l’énergie apparaissait sous une multitude de formes: mécanique (cinétique et potentielle), thermique, électrique et chimique. La mécanique statistique montre que l’énergie thermique n’est autre qu’une forme de l’énergie mécanique et que, plus précisément, elle est identique à l’énergie cinétique du mouvement désordonné des atomes, ce qui ramène le premier principe de la thermodynamique à la loi déjà connue en mécanique de la conservation de l’énergie. Boltzmann parvient même à établir le second principe de la thermodynamique à l’aide d’un argument (dit du «théorème H») qui donne lieu à beaucoup de discussions, car il revient à dériver l’irréversibilité des processus thermodynamiques à partir des équations de la mécanique, qui sont réversibles par renversement du sens du temps.

L’existence des atomes est confirmée par Jean Perrin, qui découvre, en étudiant expérimentalement le mouvement erratique de particules légères en suspension dans un liquide et observables au microscope, ce que l’on appelle le mouvement brownien, dû aux collisions des atomes contre ces particules.

Dans l’intervalle, l’invention des appareils électriques sous haute tension (tubes à rayons X, à rayons cathodiques) a révélé l’existence des premières particules élémentaires: l’électron et le proton.

XXe siècle

Cette évolution aboutit cependant à une remise en question de toute la physique au début du XXe siècle. Déjà, la découverte de la radioactivité et l’étude qui en est faite par Pierre et Marie Curie ont révélé l’existence de nouvelles propriétés de la matière qui s’avèrent très difficiles à classer. Le véritable problème, cependant, est dû aux premières expériences de physique nucléaire , faites par Ernest Rutherford, qui établissent que l’atome est constitué d’électrons placés autour d’un très petit noyau central. C’est donc non seulement la confirmation de l’existence des atomes, mais de plus la révélation de leur structure. Or, selon les lois de la physique telles qu’on les connaît alors, un tel atome ne devrait pas être stable, contrairement à ce que l’on observe. C’est de cette contradiction que va naître la mécanique quantique.

Entre-temps, la physique classique atteint son plus remarquable développement, avec Einstein et la théorie de la relativité . La genèse de la relativité a un lien étroit avec le principe d’inertie, c’est-à-dire, en particulier, l’existence d’un système de repère absolu (lié jadis aux étoiles) dans lequel le mouvement d’un point libre est uniforme. Les équations de Maxwell, qui décrivent la propagation des ondes lumineuses, sont, à ce que l’on croit alors, valables dans le système de repère absolu. Une analyse très simple, qui ne dépend d’ailleurs même pas de ces équations, montre que, le temps étant, comme on le pense, un absolu, la vitesse de la lumière doit dépendre de la vitesse du laboratoire par rapport au repère absolu. En particulier, le mouvement de la Terre doit affecter la mesure de cette vitesse. L’expérience est faite par Albert Abraham Michelson et aboutit à un résultat extraordinaire: la vitesse de la lumière est insensible au mouvement de l’observateur.

Einstein pose ce résultat comme un principe, donnant ainsi à la valeur universelle de la vitesse de la lumière un rôle central. Cela oblige à rejeter le caractère absolu du temps et à admettre que son écoulement n’est pas le même pour des observateurs qui sont en mouvement les uns par rapport aux autres. La théorie correspondante, dite de la relativité restreinte , fait apparaître l’utilité d’un nouveau concept, celui de l’espace-temps . Elle révèle que les équations de Maxwell sont les mêmes dans toute une classe de systèmes de référence, dits galiléens.

Cette théorie est reprise et approfondie par Einstein pour constituer la relativité générale . Ce nouveau développement s’appuie sur les considérations essentielles suivantes:

– le mouvement des étoiles ne permet pas de concevoir clairement quel peut être le système de référence où le principe d’inertie est valable;

– l’identité de la masse inertiale et de la masse gravifique (ou principe d’équivalence), posée par Newton, n’est toujours pas expliquée;

– la relativité restreinte révèle que les lois de la physique, c’est-à-dire celles de la mécanique et de l’électrodynamique, sont les mêmes dans tous les systèmes de référence galiléens, où la vitesse de la lumière est d’ailleurs la même; pourquoi cette restriction à des systèmes particuliers?

– la force de gravitation instantanée de Newton, qui suppose le même temps pour les corps entre lesquels elle s’exerce, est incompatible avec la relativité restreinte.

Einstein trouve la réponse à ces questions dans la relativité générale, dont le trait essentiel est d’admettre une courbure de l’espace-temps associé à la gravitation: la géométrie est donc pleinement reliée à la physique. Le principe d’inertie devient une propriété beaucoup plus générale, énonçant comment se déplace un corps qui n’est soumis à aucune force autre que la gravitation. Les lois de la physique prennent alors naturellement la même forme dans tous les repères.

Ces théories, confirmées par l’expérience, ont préparé les esprits à admettre, dans la description des phénomènes physiques, une forme mathématique à première vue très éloignée des formes de pensée classiques ou intuitives. Cette ouverture des esprits à l’inattendu va être à nouveau nécessaire dans la genèse de la mécanique quantique .

On ne suivra pas ici non plus les tâtonnements et les révélations qui ont marqué le développement de la mécanique quantique. Pour pouvoir sortir de l’impasse où se trouve la description de l’atome par la physique classique, il est nécessaire de développer une formulation mathématique des lois de la Nature qui est à la fois très complexe et très éloignée de l’intuition commune. Cet effort est compensé par un progrès et un approfondissement fulgurants des connaissances humaines relatives aux propriétés de la matière.

Dans sa formulation présente, la mécanique quantique repose sur les bases suivantes:

– La description de la réalité est intrinsèquement faite en termes de probabilités et une connaissance précise de l’état initial d’un système physique ne permet pas de prédire les résultats d’expériences ultérieures autrement que par leurs probabilités. Cela s’oppose au déterminisme rigoureux des règles de la mécanique classique.

– Les valeurs obtenues par une mesure de certaines quantités qui, en mécanique classique, peuvent varier de manière continue (par exemple, la vitesse d’une particule enfermée dans une boîte, le moment cinétique d’un atome) prennent souvent à l’échelle atomique des valeurs bien déterminées et bien séparées, ou quantiques.

– L’état d’un système physique, par exemple une particule, n’est plus décrit par des variables dynamiques comme la position et la vitesse, mais par une fonction d’onde, ou vecteur d’état.

– L’évolution au cours du temps de la fonction d’onde obéit à une équation, posée par Erwin Schrödinger, qui remplace les équations de la mécanique. Cette équation est linéaire: les fonctions d’ondes s’ajoutent (principe de superposition).

– La probabilité de trouver une valeur quantique permise pour le résultat d’une mesure dépend quadratiquement de la fonction d’onde. Ainsi, la probabilité de trouver une particule dans l’intervalle x au voisinage du point x est donnée par | 切(x )|2 x , où 切(x ) est la fonction d’onde. Cette fonction prend des valeurs complexes (au sens des nombres complexes ou imaginaires).

– En général, il n’est pas possible de spécifier simultanément deux quantités physiques distinctes. Ainsi, l’incertitude (ou erreur) x sur la position d’une particule est associée à l’incertitude sur son impulsion p par la relation de Heisenberg:

= h /2 神 est lié à la constante d’action h de Planck.

On trouvera dans l’ensemble d’articles mécanique QUANTIQUE plus de précision et une description du formalisme mathématique nécessaire, ainsi que le rôle joué par les fondateurs de cette théorie (Niels Bohr, Werner Heisenberg, Paul Dirac, Erwin Schrödinger, Max Born et Louis de Broglie).

La mécanique quantique a été l’outil essentiel des progrès de la physique de 1920 à nos jours. En voici les résultats principaux.

– La physique atomique : l’interaction électrique entre le noyau et les électrons permet d’établir l’existence de niveaux d’énergie pour un atome et de calculer le spectre de son rayonnement. Parmi les propriétés expliquées ainsi dans le détail figurent l’émission et l’absorption de la lumière, les propriétés chimiques et la structure des molécules.

– La physique du solide : l’interaction électrique entre les électrons et les noyaux, étendue à un système cristallin, permet d’expliquer quantitativement les propriétés électriques des conducteurs, isolants et semiconducteurs, la supraconductivité, les propriétés thermiques, mécaniques, magnétiques et optiques des solides. La théorie quantique a conduit à des applications remarquables (semiconducteurs et transistors, lasers). Elle s’étend en partie aux liquides.

– La physique classique : les règles de la physique classique, bien vérifiées à l’échelle humaine, apparaissent comme des conséquences de la mécanique quantique dans les conditions qui sont valables pour des objets macroscopiques.

– L’électrodynamique quantique : la formulation quantique des équations de Maxwell permet de traiter les propriétés du photon. Elle a conduit à prédire l’existence des antiparticules et à raffiner la théorie des spectres atomiques jusqu’à un degré remarquable de précision (mieux que six décimales d’accord entre la théorie et l’expérience).

– La mécanique statistique : l’approfondissement des travaux de Boltzmann aboutit à une explication détaillée des propriétés thermiques.

– La physique nucléaire : on procède à l’analyse de la structure des noyaux atomiques, constitués de protons et de neutrons. Là, contrairement aux applications précédentes, la force dominante n’est plus de nature électrique mais est une interaction forte (cf. Les fondements de la physique contemporaine ). On connaît les applications fondamentales à la technique et à la science des réactions de fusion et de fission des noyaux: génération de l’énergie et formation des noyaux dans les étoiles, énergie nucléaire, etc.

– La physique des particules : depuis 1950, le nombre des particules élémentaires connues s’est considérablement accru. Peu de temps avant 1970, la recherche a pris un nouvel essor grâce à deux progrès majeurs: d’une part, la découverte d’un nouveau niveau de structure qui fait apparaître un grand nombre de ces particules comme composées d’entités plus simples, les quarks, d’autre part, une connaissance considérablement accrue de leurs interactions fondamentales.

4. Les structurations

Par structuration de la physique on entend les diverses manières de distinguer, dans ce domaine très vaste, des aspects complémentaires. Il s’agit principalement de l’opposition entre les différents domaines de dimensions, allant du microscopique au macroscopique et au-delà, de l’opposition du quantique et du classique, de celle qui existe entre physique fondamentale et physique appliquée, entre théorie et expérience et, enfin, de la division en disciplines.

Le grand nombre de ces divisions est rendu nécessaire à cause de l’étendue du sujet en dépit de son unité. En effet, le sujet de la physique est pratiquement l’Univers lui-même, considéré à la fois dans sa totalité, ses parties et ses lois. L’examen de ces différentes distinctions permettra de préciser un certain nombre de points importants.

Les différents domaines de dimensions

Le domaine microscopique est celui des propriétés des atomes, des noyaux et des particules élémentaires. Le rayon typique d’un atome est de 10 size=110 m (soit 10 size=11 nm), celui d’un noyau est de 10 size=115 m (un fermi). C’est là le domaine d’application principal de la mécanique quantique. Pour étudier expérimentalement les propriétés de la matière à des dimensions aussi petites, il faut, à cause des relations d’incertitude de Heisenberg, mettre en jeu des impulsions, c’est-à-dire des énergies considérables. C’est la raison pour laquelle il est nécessaire d’utiliser des accélérateurs de particules très puissants.

Le domaine macroscopique désigne celui des systèmes composés d’un très grand nombre d’atomes. Il va des objets visibles au microscope jusqu’aux galaxies et même plus loin dans chaque direction. Il est décrit par les lois de la physique classique (cf. Physique quantique et physique classique ).

Un domaine moins bien exploré, que l’on pourrait qualifier de mégascopique , est celui des caractères de l’Univers pris dans son ensemble. Il recouvre essentiellement le champ de la cosmologie et pose des problèmes très spéciaux quant à sa méthodologie. Le rôle de l’espace-temps courbé de la relativité générale y est fondamental.

Physique quantique et physique classique

Les principaux caractères de la mécanique quantique ont été précisés plus haut, ainsi que ceux de la physique classique, qui décrit les systèmes macroscopiques et traite de quantités continues (et non pas discrètes, ou quantiques, c’est-à-dire ne prenant que des valeurs isolées bien définies). De plus, les lois de la physique classique sont déterminées, en ce sens qu’elles n’exigent pas l’emploi de la notion de probabilité et qu’elles n’imposent pas nécessairement des incertitudes dans les mesures.

En réalité, les lois de la physique classique sont, au sens mathématique, les formes limites que prennent les lois quantiques lorsque, pour le système considéré, la constante d’action de Planck peut être assimilée à zéro.

Avec cette acception des termes, la théorie de la relativité, qu’elle soit restreinte ou générale, est tenue pour classique lorsqu’elle traite d’objets macroscopiques, ce qui est le plus souvent le cas pour la relativité générale.

Physique fondamentale et physique appliquée

On peut, de manière un peu arbitraire, distinguer le domaine de la physique fondamentale et celui de la physique appliquée comme correspondant respectivement à l’analyse de ce qui est encore inconnu et à l’utilisation pratique de ce qui est déjà connu.

Physique expérimentale et physique théorique

La distinction entre physique expérimentale et physique théorique reflète tout d’abord celle des différentes étapes de la découverte, l’expérience intervenant dans l’établissement des données et la vérification, la théorie prenant en charge la création de l’hypothèse et la déduction de ses conséquences. Cette distinction correspond surtout à une spécialisation des physiciens, qui semble exigée à la fois par la complexité des techniques instrumentales actuelles et par l’étendue des connaissances mathématiques qui sont utiles à la théorie. Une telle spécialisation n’est pas tout à fait un phénomène nouveau, mais sa quasi-nécessité est récente.

Disciplines et spécialisation

On trouvera, dans les corrélats, une liste des disciplines multiples de la physique. Selon le point de vue adopté ici, il convient d’y inclure l’astronomie, la mécanique et la chimie. La distinction de ces divers domaines correspond à des spécialisations humaines, à l’étude d’un sujet restreint ou à des habitudes historiques. Elle a cependant de plus en plus tendance à refléter la condition de spécialistes qui ont de plus en plus de connaissances sur de moins en moins de choses. En réalité, on constate que les grandes disciplines ne représentent même plus une spécialité et que les spécialistes se concentrent sur des sujets beaucoup plus restreints.

5. Les fondements de la physique contemporaine

Le cadre dans lequel se situe la physique contemporaine est celui d’un espace et d’un temps qui sont bien définis pour un observateur déterminé. Si l’on veut s’affranchir de cette référence à l’observation, il est nécessaire de tenir compte de la manière dont les mesures de distance et de temps sont affectées par le mouvement des appareils de mesure, ce qui se fait naturellement dans le cadre plus large de l’espace-temps.

Pour des distances et des temps de l’ordre de ceux que l’on rencontre dans les laboratoires (y compris jusqu’ici dans les expériences de physique microscopique), l’espace-temps est celui que décrit la théorie de la relativité restreinte. Cela signifie, en particulier, que l’espace est celui que l’on se représente naturellement et qui est appelé l’espace euclidien.

Il est nécessaire de faire entrer en jeu la courbure de l’espace-temps lorsque l’on s’intéresse à des régions étendues de l’Univers, c’est-à-dire à des distances de l’ordre du milliard d’années de lumière ou à des temps de l’ordre du milliard d’années. Il faut également faire intervenir cette description, donnée par la relativité générale, lorsque l’on considère des champs de gravitation très intenses ou certains raffinements de mesure. La relativité générale constitue donc actuellement le cadre ultime de la description spatio-temporelle, alors que la relativité restreinte, ou bien encore l’espace et le temps «ordinaires», en sont des formes limites valables dans une approximation bien déterminée (c’est-à-dire, respectivement, lorsque les effets de gravitation sont faibles et lorsque toutes les vitesses considérées sont petites par rapport à celle de la lumière).

Dans ce cadre de l’espace-temps, on observe et on décrit des objets physiques qui apparaissent, selon les cas, comme des assemblages de particules ou, ce qui revient essentiellement au même, comme des champs tels que les champs électrique et magnétique.

La description de l’état de ces systèmes se fait grâce à la mécanique quantique. Celle-ci constitue un cadre logique et un ensemble de formes mathématiques qui représentent correctement les systèmes de particules. La mécanique quantique traite des probabilités de l’observation et de la mesure, et elle comporte intrinsèquement, comme on l’a vu, des conditions d’incertitude. Cela n’implique pas pour autant la moindre liberté dans le formalisme, qui contient tout ce qui peut être connu en principe d’un système (cependant, la mécanique quantique définit une forme des lois physiques et non pas la totalité du contenu de ces lois). Par analogie avec la mécanique newtonienne, on pourrait dire que la relation づ = m ゔ, entre la force et l’accélération, est une forme des lois de la dynamique, mais que, pour en préciser le contenu, il faut donner en plus la valeur de la force. Si, par exemple, づ est la force gravitationnelle qui s’exerce entre deux corps célestes, on dira que c’est une force d’interaction. De même, il est nécessaire, pour donner un contenu à la mécanique quantique, de connaître l’interaction des particules, ce sur quoi on reviendra.

Auparavant, il est bon de mentionner une conséquence importante du cadre ainsi posé. La description de l’espace-temps par la relativité restreinte et la mécanique quantique entraîne nécessairement qu’un certain nombre de quantités demeurent inchangées au cours du temps, dans un système de référence donné, quels que soient les phénomènes qui affectent le système physique. Ces lois de conservation sont celles de l’énergie, de l’impulsion et du moment cinétique. La raison essentielle de leur existence se trouve dans l’homogénéité du temps (toutes les horloges dans le système marquent le même temps), l’homogénéité de l’espace (tous les points de l’espace sont comparables) et l’isotropie de l’espace (toutes les directions de l’espace sont équivalentes).

Pour préciser l’interaction de deux particules, par exemple, il faut se donner la forme exacte de leur énergie. Cela revient (cf. mécanique QUANTIQUE) à se donner un opérateur que l’on appelle l’hamiltonien, agissant sur les fonctions d’ondes (ce procédé est analogue à la donnée de l’énergie potentielle dans l’exemple classique de l’interaction gravitationnelle).

Actuellement, il y a quatre types connus d’interactions fondamentales ou, si l’on préfère, quatre contributions essentielles à l’énergie ou à l’hamiltonien d’interaction pour des systèmes quelconques de particules. Ce sont, respectivement, les interactions gravitationnelles, électromagnétiques, fortes et faibles.

Interactions gravitationnelles

Les interactions gravitationnelles sont, de loin, celles qui donnent lieu aux forces les moins intenses. Elles sont en général données par le potentiel d’interaction de Newton, dans les cas très fréquents où il n’est pas nécessaire de faire entrer en ligne de compte la relativité générale.

Interactions électromagnétiques

Les interactions électromagnétiques sont, avec les précédentes, les mieux connues. La valeur exacte de l’hamiltonien d’interaction électromagnétique, c’est-à-dire la forme que prend l’énergie d’interaction pour un système quelconque de particules chargées et de photons, est facilement précisée. La branche correspondante de la physique est l’électrodynamique quantique ; voici quelques-uns des domaines traités par cette science:

– Existence et propriétés des antiparticules, création de paires, annihilation électron-positron.

– Émission et absorption des photons par les atomes ou les particules.

– Propriétés des atomes: dans ce cas particulier, l’essentiel de l’interaction électromagnétique est donné simplement par le potentiel de Coulomb entre électrons et noyaux. Comme ce potentiel, tout comme le potentiel de gravitation de Newton, est inversement proportionnel à la distance entre les particules, on peut comparer directement l’intensité des forces gravitationnelles et électriques, par exemple entre un électron et un proton: les premières sont 10 size=139 fois moins fortes que les secondes. Le fait que, dans les situations courantes, la pesanteur semble dominer les phénomènes ordinaires tient à une compensation très fine des forces électriques, qui est due à la neutralité de la matière: la charge électrique de l’électron étant exactement opposée à celle du proton, la matière est, dans l’ensemble, électriquement neutre.

– À l’échelle macroscopique, l’électrodynamique quantique admet comme cas limite l’électrodynamique classique telle qu’elle est formulée dans les équations de Maxwell.

Interactions faibles

Les interactions faibles sont responsables d’un grand nombre de désintégration de particules comme, par exemple, la désintégration 廓 des noyaux. Une de leurs caractéristiques les plus remarquables consiste en leur violation de certaines propriétés de symétrie, comme celle de la parité, et, plus faiblement, celle de l’invariance par renversement de signe du temps (cf. SYMÉTRIE - Physique).

Leur structure a été explicitée et l’on a pu montrer qu’elles constituent avec les interactions électromagnétiques deux manifestations d’une seule et même interaction; un pas considérable a ainsi été accompli vers ce qu’il est convenu d’appeler une théorie unitaire. La découverte en 1983 de deux particules de masse élevée, les bosons intermédiaires W et Z, qui constituent avec le photon les vecteurs de cette interaction unifiée, est venue couronner l’ensemble des confirmations expérimentales de cette théorie des interactions dites électro-faibles.

Interactions fortes

Les interactions fortes sont, de loin, les plus intenses. L’exemple typique en est donné par les forces nucléaires qui lient les protons et les neutrons dans le noyau.

Bien que ces forces soient très grandes à courte distance, elles décroissent très rapidement (exponentiellement) avec la distance entre les particules. Au-delà de quelques fermis (10 size=115 m), elles sont devenues totalement négligeables, et ne jouent déjà plus aucun rôle à l’échelle de l’atome.

On sait à présent que les particules capables de subir des interactions fortes, comme le proton, le neutron, le méson 神..., sont en réalité composées d’entités plus élémentaires, les quarks. De nombreuses indications expérimentales amènent à penser que les interactions fortes ont une structure mathématique analogue à celle des interactions électro-faibles: elles sont invariantes en chaque point de l’espace-temps par rapport à un groupe, ce qui leur donne un caractère de théorie dite de jauge que l’on retrouve également d’ailleurs dans le relativité générale. Cela laisse augurer à terme une unification de tous les types d’interactions. De plus, elles sont portées par des bosons intermédiaires auxquels on a donné le nom de gluons et qui jouent dans leur cadre le même rôle que les photons dans l’interaction électromagnétique. Ces progrès majeurs remontent essentiellement aux années 1970.

Ainsi, l’espace-temps, la mécanique quantique et les interactions fondamentales permettent de décrire, fort bien dans certains cas, les particules élémentaires et les atomes. Néanmoins, on s’intéresse le plus souvent à des systèmes macroscopiques qui sont constitués par un très grand nombre d’atomes et de particules. Pour passer de l’échelle microscopique à l’échelle macroscopique, on utilise la mécanique statistique , c’est-à-dire l’application des règles du calcul des probabilités à de tels systèmes (la loi des grands nombres), compte tenu de ce que l’on sait des lois microscopiques.

C’est par cette méthode que l’on dérive les lois de la physique classique, celles de la thermodynamique, les propriétés des solides, des liquides, des gaz et des plasmas (propriétés mécaniques, électriques, thermiques, optiques, magnétiques, etc.).

Au total, la physique contemporaine apparaît comme dotée d’un cadre précis dans lequel, pour l’essentiel, le macroscopique apparaît comme dérivé du microscopique à l’échelle duquel sont formulées les lois fondamentales. Seules, les propriétés de courbure de l’espace-temps, intrinsèquement géométriques, apparaissent comme des structures essentiellement macroscopiques, qui font d’ailleurs partie du domaine conceptuel de l’espace-temps.

6. Le connu et l’inconnu

Il ressort du panorama précédent qu’une grande partie de la physique repose sur des éléments connus. Cela ne signifie pas, évidemment, qu’il n’y ait plus rien à découvrir en physique des solides ou en chimie, par exemple, mais plutôt que l’on s’attend à ne rencontrer que des applications nouvelles ou des effets non encore détectés, qui ne remettront pas en question le soubassement microscopique, ni ses lois fondamentales. Dans ces domaines, que l’on qualifiera de connus en ce sens, les problèmes constituent apparemment une extension «horizontale» sans approfondissement essentiel. La liaison directe entre ces problèmes et les fondements est d’ailleurs souvent rendue très difficile par la complexité des questions que l’on se pose, ce qui rend parfois une analyse théorique à partir des fondements pratiquement irréalisable et bien souvent de peu d’intérêt.

Quelles sont donc les frontières actuelles de l’inconnu qui soient clairement marquées? Il semble que la liste des principales se présente ainsi:

– Peut-on unifier l’ensemble des interactions électro-faibles et fortes en une seule interaction unitaire? Peut-on les unifier avec la relativité générale, c’est-à-dire la structure même de l’espace-temps?

– Il demeure des problèmes très difficiles dans les fondements de l’électrodynamique: pourquoi existe-t-il une particule (le muon, ou 猪) qui semble n’être qu’un électron plus lourd que l’autre? Peut-on calculer la charge de l’électron?

– Peut-on concilier dans le détail la relativité générale et la mécanique quantique? Faut-il quantifier la relativité générale, et comment?

– Peut-on, en particulier, comprendre l’Univers dans son ensemble à partir des lois actuellement connues de la physique? En d’autres termes, peut-on reconstituer l’histoire de l’Univers et expliquer ce qui s’y observe (matière, galaxies) à partir d’hypothèses simples et constituer une théorie vérifiable?

– Les fondements de la mécanique statistique à partir de la mécanique quantique ne sont pas encore entièrement satisfaisants. En particulier, les phénomènes thermodynamiques irréversibles ouvrent un vaste champ à la recherche. L’étude de ces questions a profondément renouvelé la notion même de déterminisme en mécanique classique.

– Il est apparu que notre conception de la mécanique classique, bien que correcte dans ses fondements, avait été trop marquée par les exemples analytiquement calculables et que la plupart des systèmes très complexes développent au cours du temps un comportement quasi aléatoire qui marque le rôle de courbes limites singulières , les attracteurs étranges, qui n’ont pas en général de dimension spatiale entière. Cela en fait des objets qui ne sont ni des courbes, ni des surfaces, ni des volumes, dont une des manifestations la plus remarquable est constituée par le phénomène de la turbulence.

– L’accumulation des données nouvelles en astrophysique multiplie à l’heure actuelle les questions ouvertes.

– Enfin, et c’est là le plus grand problème, comment la vie s’insère-t-elle dans le cadre de la physique?

7. Physique et réalité

Le degré de raffinement auquel la physique est déjà parvenue, tout autant que l’étendue considérable des connaissances qu’elle recouvre, pose de manière aiguë le problème de la réalité, ou, si l’on préfère, celui de la signification même de ces connaissances. Comment se fait-il que l’on n’ait jamais buté contre une contradiction sans la résoudre, que l’on n’ait jamais rencontré les limites du rationnel, que l’évolution de la physique, malgré la multiplication de ses objets et de ses découvertes, se soit toujours traduite par une synthèse fondée sur des lois moins nombreuses, plus riches d’applications et plus cohérentes? Comment se fait-il que le raisonnement mathématique ait tant à dire sur les faits naturels? Nous présenterons rapidement les réponses qui ont été proposées à ces questions, ou plutôt les attitudes auxquelles elles ont donné lieu. Il est naturel de situer cette discussion dans un exposé relatif à la physique, car c’est sans doute là que les questions se posent de la manière la plus nette avec le plus de données.

Parmi les physiciens et les spécialistes de la philosophie des sciences, il semble qu’on puisse distinguer trois positions principales que l’on désignera comme pragmatique, néo-positiviste et réaliste.

L’attitude pragmatique

On peut résumer l’attitude pragmatique par la formule bien connue: «La science est l’ensemble des recettes qui réussissent toujours», ce qui revient à rejeter le problème. Cette attitude, que l’on confond quelquefois abusivement avec celle de l’empirisme critique, n’est pas étrangère, aujourd’hui encore, à grand nombre de physiciens, et peut-être à une majorité, qui la font leur comme allant de soi.

Il semblerait pourtant que ce point de vue soit étroitement associé à l’état de la science au XIXe siècle, prérelativiste et préquantique. À l’époque où l’on pouvait, avec lord Kelvin, représenter tous les phénomènes physiques à l’aide de modèles mécaniques simples, il n’y avait pas de différence essentielle entre le problème de la réalité tel qu’il se pose dans le cadre de la science, et tel qu’il apparaît dans l’interprétation de l’expérience quotidienne. Ramenant ainsi le premier problème au second, on revenait à une question philosophique, et d’ailleurs métaphysique, très classique. La méfiance étant très grande à l’époque pour ce genre de spéculations, on préférait la rejeter purement et simplement.

Lorsqu’on tient compte des progrès de la connaissance accomplis au XXe siècle, et cela au prix d’un éloignement certain des représentations intuitives communes, on voit que les questions posées plus haut ont pris une acuité beaucoup plus vive, alors que la réponse pragmatique simplifiante demeure très en deçà.

L’attitude néo-positiviste

L’attitude néo-positiviste a surtout été soutenue par des philosophes, au premier rang desquels il convient de citer, avec des nuances diverses, Bertrand Russell, Ludwig Wittgenstein et Rudolf Carnap. Elle partage au premier abord un point de vue qui a été longuement développé dans la physique contemporaine, laquelle insiste tout particulièrement sur le rôle de l’observateur, tant en relativité qu’en mécanique quantique. Dans le cas de la relativité, parler de l’observateur revient en fait à spécifier un système de référence particulier, de telle sorte que son rôle n’est qu’apparent. En mécanique quantique, par contre, la description des systèmes étant faite en termes de probabilités, il peut se poser réellement des problèmes selon que l’observateur a ou non reçu une information lui donnant le résultat d’une expérience déjà faite (c’est là la source d’un problème classique, souvent qualifié de paradoxe, qui fut proposé par Einstein, Boris Podolsky et Nathan Rosen). Cependant, il semble bien que ce problème soit, à l’intérieur de la mécanique quantique, beaucoup moins essentiel que celui qui se pose à l’«observateur» envisagé par les néo-positivistes.

En analysant le processus d’acquisition des connaissances et en insistant sur des conditions de rigueur, ces auteurs arrivent à une position de stricte réserve quant à la nature de la réalité. Tout savoir se formule soit en propositions qui se réfèrent à l’expérience («Nous nous faisons des tableaux de la réalité», Wittgenstein), soit en propositions tautologiques. Ces propositions ne sauraient échapper au langage.

Et ce sont les conditions de rigueur logique dans lesquelles celui-ci se déploie qui feront – aux lieu et place de la métaphysique – l’objet de la philosophie. Il semble que l’on puisse résumer cette attitude en disant que, comme elle exige la rigueur, qui est une qualité du raisonnement logique ou mathématique (donc une qualité d’une partie seulement de la démarche physique), elle aboutit à une critique de la notion même de connaissance dans le domaine des sciences de la Nature. Les tenants de ce point de vue sont trop bons logiciens pour qu’on les trouve en faute. C’est au mépris de leur attitude que le savant se verra contraint de franchir les frontières de la rigueur s’il veut passer des formulations de la science à un discours sur la réalité.

L’attitude réaliste

L’attitude réaliste consiste à postuler l’existence objective d’un Univers ordonné qui obéit à des lois fixes. Cette hypothèse constitue précisément la discontinuité dans la rigueur qu’il faut dépasser pour échapper à l’«autisme» néo-positiviste. Cette attitude est rarement présente chez des spécialistes de la philosophie des sciences, lesquels insistent surtout sur les exigences de rigueur. On la trouve exprimée, par exemple, chez Einstein et chez plusieurs autres fondateurs de la physique contemporaine.

Ce point de vue est souvent, et tout naturellement, considéré comme évident, mais il pose à l’analyse des problèmes qui n’ont été que très peu explorés. En effet, il n’a jamais été établi qu’il soit cohérent. Le problème se présenterait ainsi: si l’Univers est ordonné et soumis à des lois, peut-il y avoir, en accord avec ces lois, des êtres pensants qui le comprennent? En d’autres termes, on sait, depuis Alan M. Turing, qu’une machine peut effectuer toutes les opérations logiques; on peut donc se poser la question de bâtir un modèle d’Univers (au sens d’un modèle mathématique, éventuellement très simplifié) qui engendrerait en son sein une machine du type de Turing munie de moyens de perception. Les résultats de l’analyse logique de cette machine seraient alors en correspondance (toujours au sens mathématique) avec les processus ayant lieu dans le modèle d’Univers. Si un tel modèle, quelque peu réaliste, pouvait être construit, il permettrait peut-être un progrès décisif de la philosophie des sciences et pourrait éclairer profondément le mécanisme de la conscience.

L’approche réaliste, au prix d’un postulat, aboutit à poser ses propres problèmes de cohérence en des termes scientifiques. On notera au passage que de tels problèmes, ramenant une étude de cohérence «méta-physique» à un problème mathématique, s’inspirent des méthodes par lesquelles on justifie l’emploi de certains méta-modèles en logique et dans l’étude des fondements des mathématiques. Cette analogie et ce type nouveau de problèmes ne semblent avoir reçu encore que très peu d’attention.

L’accroissement des connaissances

On trouvera, dans la figure, un résumé graphique de l’historique des découvertes, arrêté au début des années 1970. Il a été obtenu en portant le nombre de découvertes significatives, rapportées dans la liste historique, en fonction du temps. La courbe a été lissée jusqu’en 1930. Elle a été laissée sous forme d’histogramme, marqué par tranches de dix ans, de 1930 à 1970. Pour préciser la signification de ce graphique, il faut donner les sources utilisées: de 1600 à 1900, les histoires de la physique, de 1900 à 1960, les conférences Nobel de physique, ainsi que les biographies et les références qui y sont données, la liste des prix Nobel de chimie et, enfin, une analyse de la revue Scientific American pour les découvertes effectuées entre 1950 environ et 1970 environ, qui ne sont pas connues de première main. On s’est efforcé d’y retenir les mêmes critères au cours des siècles: signaler les découvertes significatives et laisser de côté leur exploitation systématique.

Quelques caractères nets, apparaissant sur cette courbe, sont: une naissance de la physique vers 1600, suivie de deux siècles de progrès réguliers. Entre 1780 et 1800, s’amorce une montée très nette qui aboutit à un nouveau palier pendant la seconde moitié du XIXe siècle. Puis on assiste à l’explosion conceptuelle du début du XXe siècle, aboutissant au pic des années 1920-1930, associée à la découverte de la mécanique quantique et de ses applications. Le reste de l’histogramme est difficile à analyser: on y voit vraisemblablement une retombée. Celle qui semble marquer les dix dernières années de la figure n’est peut-être qu’un effet de perspective, bien qu’elle puisse aussi marquer un certain achèvement dans l’exploitation des résultats de la mécanique quantique.

Contrairement à une opinion très répandue, il n’y a pas actuellement une explosion des connaissances nouvelles en physique. Celle-ci a eu lieu dans les années 1920, tout au moins en ce qui concerne les fondements de la physique, et la période présente marque, au mieux, un palier.

L’interprétation de la figure suggère un certain nombre de remarques:

– on peut y distinguer trois stades successifs correspondant chacun à l’élaboration de conceptions nouvelles et à leur exploitation; la différence marquée entre le temps qu’il a fallu pour exploiter les conséquences de la mécanique newtonienne et celles de la mécanique quantique serait alors due au nombre beaucoup plus considérable des chercheurs travaillant sur ces questions;

– la stabilisation actuelle des connaissances fondamentales devrait amener un effort pédagogique pour les inculquer plus tôt et mieux;

– le nombre des applications pratiques et l’accumulation des données de l’observation ne suivent pas une courbe analogue, mais vont nettement en croissant;

– l’«explosion des connaissances» se poursuit ailleurs, et tout particulièrement en biologie.

Finalement, on peut s’interroger sur l’avenir: y aura-t-il une autre résurgence de la physique ou bien, comme le suggère Eugene Wigner, le sujet deviendra-t-il de plus en plus difficile d’accès, la somme des connaissances qui sont nécessaires pour aborder les problèmes fondamentaux devenant de plus en plus considérable? Ou bien y aura-t-il un changement total de point de vue, qui posera de nouveaux problèmes qu’on ne sait même pas encore formuler? Bien que la question se pose certainement, elle n’a pas dépassé jusqu’à présent le stade des spéculations.

Encyclopédie Universelle. 2012.